Блог им. Replikant_mih |ML в трейдинге.

Замутил чатик в телеграме. Тематика: применение машинного обучения (ML) — нейросетей ли, не нейросетевых моделей ли — в трейдинге для извлечения прибыли.

— Без обязательств.
— Без планов.
— На попробовать, пойдёт не пойдёт такой формат и такая тематика. Мне тема интересна.

Заходите если применяете ML в торговле, если рисёчите эту тему и планируете применять, если просто интересуетесь ML, но никак не решитесь к трейдингу это прикрутить или даже считаете, что это не применимо к трейдингу.

https://t.me/+hV1etW5V6hw4MzRi


Я ML использую в торговле. И периодически присматриваюсь к более широкому применению ML в своей торговле.
Было бы интересно пообщаться с теми, кому тематика тоже интересна.

Блог им. Replikant_mih |Алго. О том, как важно задавать правильные вопросы и находить адекватные ответы).

Представим процесс создания и верификации стратегии как исследование, и сведём этот процесс к следующей упрощенной модели: цель исследования это вопрос, само исследование — процесс ответа на вопрос, результат исследования – ответ на вопрос.

 

Так вот часто, эти три компонента в модели А. Не согласованы, Б. Процесс согласования не проходит через сознательный уровень. Поясню:

(А) – Ну тут обычно всё просто: если ты задаёшь один вопрос, а отвечаешь как будто на другой вопрос, то и ответ в итоге не будет отвечать на поставленный вопрос. Или ближе к алго: если ты хочешь оценить робастность стратегии, а в процессе исследования делаешь что-то несусветное, твои выводы не скажут ничего про робастность. Например, я оцениваю робастность стратегии и хочу получить наилучшие параметры для торговли (вопрос), делаю оптимизацию на истории и отбираю ТОП1 прогонов, беру от него набор значений параметров (ответ).

(Б) – Многие тупо не отдают себе отчет что они делают, почему именно так, как процесс ответа на вопрос согласуется с вопросом, как ответ соответствует вопросу и т.д. Ну т.е. многие исследуют именно так, а не иначе потому «а вот я слышал, что это работает», «я пробовал, вроде сработало» или ещё почему-то. Не скажу, что более глубокий уровень осознанности в этом деле прям обязательный, если у тебя что-то работает (твой подход) – ну и отлично.


Но я люблю осознанность:



( Читать дальше )

Блог им. Replikant_mih |IS/OOS 75%/25% норм? – Ага щаззз.

IS – in sample (оно же обучающая выборка), OOS — out of sample (оно же тестовая выборка). Ну или ближе к обычным алго – IS – там, где оптимизируешь стратегию, OOS – данные, которые стратегия ещё не видела.

 

 

Какое соотношение выборок лучше. Просто сейчас накапливаю некоторые данные (которые иным способом не получить), а любопытство оно же такое, что нельзя просто так взять и подождать 3 месяца и только тогда начать с данными работать, поэтому начал работать с данными чуть когда их было ещё совсем мало, потом продолжил когда их было просто мало, продолжил когда стало чуть побольше и т.д., сейчас уже вполне достаточно.

 

Из-за того, что несколько раз к данным подступался при разных объёмах этих самых данных, несколько выпятился наружу вопрос достаточности данных в целом и в частности вопрос соотношения IS/OOS в целом.

 

Когда данных совсем мало – без разницы как делить – не хватит ни чтобы обучить (терминология у меня ML’ная, но, по сути, без разницы, ML или классические алгоритмы) ни чтобы оценить.



( Читать дальше )

Блог им. Replikant_mih |Результаты небольшого исследования про модели ML vs участки данных.

Активно использую в алго ML модели. При обучении моделей тоже есть свои фишки и с точки зрения защиты от оверфиттинга и в целом. Поэтому часто обучаю по несколько моделей в одном скрипте. Это и параметры разные и участки данных разные и т.д.

Когда скрипты уже отлажены ты просто их гоняешь, оцениваешь результаты, принимаешь решения. Часто при этом в голове всплывают неотвеченные вопросы, одни помечаешь себе, другие нет. Одними из таких вопросов были: это модель хреновая или OOS неудачный для модели, или в целом неудачный, а есть для него удачная модель, а для удачной модели есть неудачные участки данных тоже? В общем если убрать за скобки ML – классическая тема про переоптимизацию про то, что рынок может благоприятствовать стратегии (а скорее целому классу стратегий), а может нет. Но как с этим у моделей обстоит. В общем до этого момента только фантазировал на эту тему, закрыть вопрос через исследование было не сложно, но как-то руки не доходили, а теперь дошли.

 

Что делал: условно, взял много данных, единое признаковое пространство, по-всякому нарезал данные таким образом чтобы разные модели обучались на разных участках данных и было так же сопоставимое с кол-вом моделей кол-во OOS участков. Убедился, что OOS в конкретной паре модель-OOS не участвовал в обучении данной модели и погнал тестить разные модели на разных OOS кусках.



( Читать дальше )

Блог им. Replikant_mih |Натягиваю ML поверх паттернов.

Текущее экспериментальное направление рисеча в алго – графические паттерны. Формализовал и алгоритмизировал выявление нескольких паттернов. Они в таком сыром виде работают, но не космос. Чтобы было космосее формализовал и алгоритмизировал выделение фичей (они же параметры, они же метрики, свойства – как хотите) паттерна. Ну т.е. паттерн-то он паттерн, но конкретные матчи (кейсы) они же все разные, а чем они разные? – Вот в частности значениями этих фичей. По сути, я ушел на следующий уровень абстракции (сам паттерн – первый уровень, его характеристики – второй). Ну и чтобы работать со свойствами паттерна было удобней традиционно поверх небольшим слоем размазал ML.

 

 

Текущие сложности в этом направлении:

— В моей формализации долго (относительно) ищутся паттерны на окне (зависит от размера окна), поэтому, в частности, насобирать большую выборку для ML долго, а на небольшой, например, много фичей паттерна сразу не оценишь на профпригодность. Для торговли скорости приемлемые если не слишком малые ТФ и не слишком много тикеров одновременно.



( Читать дальше )

Блог им. Replikant_mih |Базовый алго-флоу на Wealth-Lab 7 и мой алго-флоу там же (часть 1 из 3).

Часто тут пишу про Wealth-Lab. Сейчас это значимая часть моей алго-инфраструктуры. Но ни разу даже картинки Велс-Лаба не показал)). Пришло время все исправить. Покажу новый велс и немного приподниму вуаль, защищающую мой подход и мой алгоритмический флоу (как тэщщу, где беру идеи, как оптимизирую, как выбираю значения параметров и т.д.).

 

Базовый флоу на Wealth-Lab 7.


Кодим стратегию. 

Базовый алго-флоу на Wealth-Lab 7 и мой алго-флоу там же (часть 1 из 3).

 

В начале Initialize видно, как удобно организована работа с таймсериями в векторном стиле.

             

Можно и без кода стратегию запилить.

Базовый алго-флоу на Wealth-Lab 7 и мой алго-флоу там же (часть 1 из 3).



( Читать дальше )

Блог им. Replikant_mih |Кого я больше уважаю - успешных ручных трейдеров или успешных алго-трейдеров.

И тех и тех уважаю. Тот кто в этом нелегком деле добился успеха, может с хорошими показателями торговать — тот красавчик. Не важно, математический ли это гений, или чел без эмоций, крутой технарь, прозорливый ли чувак, который видит кто зарабатывает и пытается отщипнуть небольшой кусочек грааля от таких чтобы слепить свой, или, может, заурядный человек во всех смыслах человек без особых талантов, но с железной целеустремленностью — все они заслуживают уважения. Т.е. залетных тут нет, если ты добился успеха — что-то в тебе есть такое.


Кого больше уважаю — сложно сказать, во мне уживается и ручной трейдер и алгоритмический, обе эти ипостаси это часть меня. Ну и как-то так получилось, что уважаю я и ручных и алго, наверно, одинаково. 

Блог им. Replikant_mih |Всё, шутки кончились. Велс-лаб 7 уже вполне неплох.

Только русских русскоговорящих мало. Залетайте в чат для русскоговорящих и Россию торгующих пользователей Wealth-Lab 7, нас уже… 2 и будет ещё больше. Граали обсуждать не будем, стратегии тоже. Для этого есть отличный чат от Сергея Павлова. А вот перетереть более узкую инфраструктурную тематику для тех, кто юзает, ну или на крайняк собирается юзать Wealth-Lab 7 – самое то. Ничего не продаю. Так чисто релевантное общение.

P.S. Пиарщик от бога, чуть ссылку не забыл добавить)).
Наш WL7 Russian чат 


Блог им. Replikant_mih |Твой алго-трейдинг будет таким, каким ты захочешь.

 

Конечно, речь о процессе). Результат подтянется если с процессом все ок. Сейчас о процессе.

 

Алго-трейдинг что дышло… Будет таким каким ты захочешь чтобы он был. Захотел поиграть в исследователя. Понятно, копаясь в каждой новой стратегии, ты исследуешь, но тут захотелось более по-взрослому и не в разрезе стратегий.

 

Недавно задавался вопросом, какой таргет для ML выбрать, много интересного написали в комментариях. Собрал тестовый стенд, формализовал таргеты, написал на питоне обработчик (вплоть до интерпретатора) результатов и погнал.

 

Взял 5 стратегий. Не буду вдаваться в детали своего подхода, для простоты… — взял 5 дата-сетов, или 5 признаковых описаний. Прикрутил некоторое кол-во разных таргетов, разнообразил некоторыми другими различиями (читай, факторами) и все это основательно прогнал. Результаты замерял на OOS.

 

Ожидание:

1. Будет выраженное влияние используемого таргета на результат стратегии.

2. Возможно, получится заметить какую-то закономерность по поводу зависимости качества модели от используемого таргета в зависимости от типа стратегии/признакового описания.



( Читать дальше )

Блог им. Replikant_mih |ML в трейдинге, причины эффекта падения метрики качества с ростом вероятности.

К предыдущему посту с тоже конкретным ML вопросом получил отличный фидбек от толковых комментаторов, превзошло мои ожидания, очень круто, ещё раз всем спасибо! 

Уверен, что и по этому вопросу людям будет что сказать.


В общем использую ML для нахождения закономерностей в осмысленных признаках — так можно кратко описать мой подход). Так вот часто наблюдаю такие эффекты и не сформировал пока четкой позиции по их интерпретации, возможно, кто-то в эту сторону уже копал и как-то дальше продвинуться, буду рад почитать какие-то инсайты или просто рассуждения на эту тему. Добро пожаловать в комментарии опять.


Суть явления: всегда оцениваю зависимость между метрикой качества сигналов и вероятностью, выдаваемой моделью по сигналу. Хорошие признаки хорошая модель построит монотонно растущую зависимость. Может быть хаос вместо монотонного роста — значит модель не вывезла — или модель не алё, либо признаковое описание не але, либо слишком много признаков для такого кол-ва данных и т.д. Но часто даже если видно, что модель нащупала смысл в данных, начиная с какой-то вероятности наблюдаются разные явления.

( Читать дальше )

....все тэги
UPDONW
Новый дизайн